Was macht die KI von DeepSeek so besonders? Künstliche Intelligenz (KI) ist längst in unserem Alltag angekommen. Und obwohl ChatGPT, Gemini & Co. schon jetzt außerordentliche Leistungen vollbringen, geht die Entwicklung rasend schnell voran. Der neueste Stern am KI-Himmel ist das chinesische Modell „DeepSeek R1“. Aber was macht die KI von DeepSeek so besonders? Was unterscheidet dieses Modell von der Konkurrenz? Und warum gibt es auch kritische Stimmen?
Reasoning als Basis Derzeit macht ein neues Großes Sprachmodell (LLM) des chinesischen Unternehmens DeepSeek weltweit von sich reden. Anfang Januar 2025 veröffentlicht, hat sich DeepSeek R1 schnell an die Spitze der App-Charts gesetzt und ist damit zu einer echten Konkurrenz für die großen Player wie OpenAI geworden. Was die Leistungen angeht, kann DeepSeek R1 gut mit den besten westlichen KI-Modellen mithalten. Ähnlich wie GPZ-o1 von Open AI ist auch R1 ein sogenanntes Reasoning-Modell. Dieses kann menschliche Sprache sowohl verstehen als auch selbst generieren, beantwortet Anfragen aber wesentlich besser. Das liegt daran, dass Reasoning-Modelle die Aufgaben, die ihnen gestellt werden, zunächst in mehrere Schritte zerlegen. Anschließend probieren sie intern verschiedene Lösungsansätze aus und geben erst danach ihre endgültige Antwort. Lassen wir solchen Modellen die notwendige Zeit, sind sie dazu in der Lage, unterschiedliche Lösungsansätze zu formulieren und nach einer Überprüfung auch wieder zu verwerfen, um auf diese Weise die optimale Lösung zu finden. Ihre große Stärke liegt deshalb vor allem darin, komplexe Probleme in der Programmierung, der Mathematik und den Naturwissenschaften zu lösen. Menschen müssten hier in aller Regel deutlich länger nachdenken. Doch allein der Umstand, dass es sich bei R1 von DeepSeek um ein Reasoning-Modell handelt, erklärt noch nicht den großen Hype um diese KI. Frei verfügbar bei geringen Trainingskosten In der LLM-Branche ist DeepSeek noch relativ neu. Verglichen mit anderen chinesischen KI-Riesen wie zum Beispiel Alibaba, die stärker mit der Regierung vernetzt sind, war das Unternehmen auch lange eher unscheinbar. Allerdings hat es schon 2024 mit innovativen Forschungsergebnissen auf sich aufmerksam gemacht. Im Gegensatz zu US-amerikanischen Firmen hat DeepSeek diese Forschungsergebnisse öffentlich zur Verfügung gestellt. Mit dem KI-Modell R1 hat DeepSeek plötzlich die Spitzenposition der weltweiten Benchmarks übernommen. Gleichzeitig hat das Unternehmen sein Modell frei zum Download verfügbar gemacht. Dadurch kann jeder R1 nutzen und auf seine Zwecke anpassen. Auch technisch hat DeepSeek R1 mehrere Innovationen zu bieten. So lässt sich das Modell nach Angaben der Entwickler zum Beispiel besonders effizient und ressourcenschonend trainieren. DeepSeek beziffert die Trainingskosten auf gerade einmal 5,6 Millionen US-Dollar. Zum Vergleich: Bei ähnlich leistungsfähigen KI-Modellen von OpenAI oder Google verschlingt das Training zwischen 100 Millionen und einer Milliarde US-Dollar. Ob die Angaben von DeepSeek tatsächlich stimmen, muss zwar noch überprüft werden. Doch Experten halten sie für durchaus realistisch. Ressourceneinsparungen dank MoE-Architektur Doch R1 punktet nicht nur mit einem kostengünstigen Training, sondern soll auch während der Anwendung bei der notwendigen Rechenleistung und im Energieverbrauch sparsamer sein als andere Modelle. Möglich wird das durch eine sogenannte MoE-Architektur. MoE steht für „Mixture of Experts“ und lässt sich mit einem großen Kaufhaus vergleichen, das verschiedene Abteilungen hat. In so einem Kaufhaus muss nicht ein einziger Verkäufer alles wissen, weil jede Abteilung ihre Experten hat. Ein Verkäufer aus der Elektronikabteilung hilft bei Fragen zum neuen Smartphone, ein Verkäufer aus der Modeabteilung berät bei der Zusammenstellung des Outfits und ein Verkäufer aus der Buchabteilung empfiehlt spannende Lektüren für den Urlaub. Beim KI-Modell funktioniert die MoE-Architektur nach dem gleichen Prinzip. Nicht das ganze Modell beantwortet alle Anfragen, sondern entscheidet je nach Aufgabe, welche Spezialisten – also Teilnetze – es aktiviert. Auf diese Weise kann sowohl beim Lernen als auch beim Antworten Rechenleistung gespart werden. Kritik an R1 und Chance für Europa Obwohl R1 von DeepSeek an vielen Stellen Lob verdient, gibt es auch Kritikpunkte. Dazu gehört, dass zwar der Großteil des Sprachmodells frei im Internet verfügbar ist, mit den Trainingsdaten und dem Trainingscode aber entscheidende Teile fehlen. Doch gerade sie sind notwendig, um nachvollziehen zu können, wie R1 im Detail funktioniert. Ein anderer Kritikpunkt ist, dass das Sprachmodell der chinesischen Zensur unterliegt. Wer die KI zu kritischen Themen in der chinesischen Politik befragt, muss damit rechnen, dass die Antwort lautet: „Tut mir leid, das würde meinen Rahmen sprengen. Lassen Sie uns über etwas anderes reden.“ Unabhängig davon bietet R1 aber das Potenzial, um den Fortschritt der KI zu beschleunigen und neue Innovationen auf den Weg zu bringen. Das gilt auch und vor allem für Europa. Die Veröffentlichung des Modells hat gezeigt, dass die Dominanz der US-amerikanischen Modelle kleiner ist als bislang vermutet. In Europa sind die Rechenkapazitäten vorhanden, um mit dem veröffentlichten Konzept und den ohnehin verfügbaren Daten ein eigenes Sprachmodell zu trainieren. Damit ist die Chance gegeben, die weitere Entwicklung von LLMs selbst in die Hand zu nehmen und sich unabhängiger zu machen.
Gerade in jüngerer Vergangenheit sind durch bundesweite KI-Programme viele talentierte KI-Wissenschaftler nach Deutschland gekommen. Wir sind also dazu in der Lage, auf Basis von R1 ein eigenes Sprachmodell auf den Weg zu bringen. Mehr Ratgeber, Tipps und Anleitungen: |